点击购买,资源将自动在新窗口打开.
获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
通过例如人工神经网络获得的预测具有很高的准确性,但人类通常将模型视为黑匣子。关于决策的见解对人类来说大多是不透明的。特别是了解医疗保健或金融等高度敏感领域的决策至关重要。黑匣子背后的决策需要它对人类更加透明、负责和易于理解。本调查论文提供了基本定义,概述了可解释的监督机器学习 (SML) 的不同原理和方法。我们进行了一项最先进的调查,回顾了过去和最近的可解释 SML 方法,并根据引入的定义对它们进行分类。最后,我们通过解释性案例研究说明原则并讨论重要的未来方向。
主要关键词